图形神经网络(GNNS)是将图形数据作为输入的深度学习模型,它们应用于各种任务,例如交通预测和分子特性预测。然而,由于GNN的复杂性,难以分析输入的哪些部分影响GNN模型的输出。在本研究中,我们扩展了卷积神经网络(CNNS)的解释方法,例如局部可解释模型 - 不可止结的解释(石灰),基于梯度的显着性图和梯度加权类激活映射(Grad-Cam)到GNN,以及预测输入图中的哪些边对于GNN决策很重要。实验结果表明,基于石灰的方法是最有效的解释性方法,用于多个任务中的现实情况,甚至在GNN解释性中表现出最先进的方法。
translated by 谷歌翻译